User and product information associated with a review is useful for sentiment polarity prediction. Typical approaches incorporating such information focus on modeling users and products as implicitly learned representation vectors. Most do not exploit the potential of historical reviews, or those that currently do require unnecessary modifications to model architecture or do not make full use of user/product associations. The contribution of this work is twofold: i) a method to explicitly employ historical reviews belonging to the same user/product to initialize representations, and ii) efficient incorporation of textual associations between users and products via a user-product cross-context module. Experiments on IMDb, Yelp-2013 and Yelp-2014 benchmarks show that our approach substantially outperforms previous state-of-the-art. Since we employ BERT-base as the encoder, we additionally provide experiments in which our approach performs well with Span-BERT and Longformer. Furthermore, experiments where the reviews of each user/product in the training data are downsampled demonstrate the effectiveness of our approach under a low-resource setting.
translated by 谷歌翻译
Existing natural language understanding (NLU) models often rely on dataset biases rather than intended task-relevant features to achieve high performance on specific datasets. As a result, these models perform poorly on datasets outside the training distribution. Some recent studies address the above issue by reducing the weights of biased samples during the training process. However, these methods still encode biased latent features in representations and neglect the dynamic nature of bias, which hinders model prediction. We propose an NLU debiasing method, named debiasing contrastive learning (DCT), to simultaneously alleviate the above problems based on contrastive learning. We devise a debiasing positive sampling strategy to mitigate biased latent features by selecting the least similar biased positive samples. We also propose a dynamic negative sampling strategy to capture the dynamic influence of biases by employing a bias-only model to dynamically select the most similar biased negative samples. We conduct experiments on three NLU benchmark datasets. Experimental results show that DCT outperforms state-of-the-art baselines on out-of-distribution datasets while maintaining in-distribution performance. We also verify that DCT can reduce biased latent features from the model's representations.
translated by 谷歌翻译
Video-and-language pre-training has shown promising results for learning generalizable representations. Most existing approaches usually model video and text in an implicit manner, without considering explicit structural representations of the multi-modal content. We denote such form of representations as structural knowledge, which express rich semantics of multiple granularities. There are related works that propose object-aware approaches to inject similar knowledge as inputs. However, the existing methods usually fail to effectively utilize such knowledge as regularizations to shape a superior cross-modal representation space. To this end, we propose a Cross-modaL knOwledge-enhanced Pre-training (CLOP) method with Knowledge Regularizations. There are two key designs of ours: 1) a simple yet effective Structural Knowledge Prediction (SKP) task to pull together the latent representations of similar videos; and 2) a novel Knowledge-guided sampling approach for Contrastive Learning (KCL) to push apart cross-modal hard negative samples. We evaluate our method on four text-video retrieval tasks and one multi-choice QA task. The experiments show clear improvements, outperforming prior works by a substantial margin. Besides, we provide ablations and insights of how our methods affect the latent representation space, demonstrating the value of incorporating knowledge regularizations into video-and-language pre-training.
translated by 谷歌翻译
在这项研究中,我们深入研究了半监督对象检测〜(SSOD)所面临的独特挑战。我们观察到当前的探测器通常遭受3个不一致问题。 1)分配不一致,传统的分配策略对标记噪声很敏感。 2)子任务不一致,其中分类和回归预测在同一特征点未对准。 3)时间不一致,伪Bbox在不同的训练步骤中差异很大。这些问题导致学生网络的优化目标不一致,从而恶化了性能并减慢模型收敛性。因此,我们提出了一个系统的解决方案,称为一致的老师,以补救上述挑战。首先,自适应锚分配代替了基于静态的策略,该策略使学生网络能够抵抗嘈杂的psudo bbox。然后,我们通过设计功能比对模块来校准子任务预测。最后,我们采用高斯混合模型(GMM)来动态调整伪盒阈值。一致的老师在各种SSOD评估上提供了新的强大基线。只有10%的带注释的MS-Coco数据,它可以使用Resnet-50骨干实现40.0 MAP,该数据仅使用伪标签,超过了4个地图。当对完全注释的MS-Coco进行其他未标记的数据进行培训时,性能将进一步增加到49.1 MAP。我们的代码将很快开源。
translated by 谷歌翻译
本文研究了控制多机器人系统以自组织方式实现多边形形成的问题。与典型的形成控制策略不同,在该策略中,机器人被转向以满足预定义的控制变量,例如成对距离,相对位置和轴承,本文的最重要思想是通过将控制输入随机输入到一些机器人(说说)(说说) ,组的顶点机器人),其余的遵循的简单原理是向环形图中的两个最近邻居的中点移动,而没有任何外部输入。在我们的问题中,机器人最初分布在飞机上。 Sopalled Vertex机器人负责确定整个编队的几何形状及其整体大小,而其他人则移动,以最大程度地减少两个直接邻居的差异。在第一步中,每个顶点机器人估计其相关链中机器人的数量。用于估计的两种类型的控制输入是使用最新和最后两次瞬间的测量设计设计的。在第二步中,提出了自组织的形成控制法,只有顶点机器人收到外部信息。两种估计策略之间的比较是根据收敛速度和稳健性进行的。在模拟和物理实验中,整个控制框架的有效性得到了进一步验证。
translated by 谷歌翻译
预训练模型已在许多代码智能任务中有效。这些模型在大规模未标记的语料库中进行了预训练,然后在下游任务中进行了微调。但是,由于预训练和下游任务的输入是不同的形式,因此很难充分探索预训练模型的知识。此外,微调的性能强烈依赖于下游数据的量,而实际上,具有稀缺数据的场景很常见。自然语言处理(NLP)领域的最新研究表明,迅速调整,一种调整的新范式,减轻上述问题并在各种NLP任务中实现了有希望的结果。在迅速调整中,在调整过程中插入的提示提供了特定于任务的知识,这对于具有相对较少数据的任务特别有益。在本文中,我们凭经验评估了代码智能任务中迅速调整的用法和效果。我们对流行的预训练模型Codebert和codet5进行及时调整,并尝试三个代码智能任务,包括缺陷预测,代码摘要和代码翻译。我们的实验结果表明,在所有三个任务中,迅速调整始终优于微调。此外,及时调整在低资源场景中显示出很大的潜力,例如,对于代码摘要,平均将微调的BLEU分数提高了26%以上。我们的结果表明,我们可以调整代码智能任务的迅速调整,以实现更好的性能,尤其是在缺乏特定于任务的数据时,我们可以调整及时调整。
translated by 谷歌翻译
联合学习(FL)框架使Edge客户能够协作学习共享的推理模型,同时保留对客户的培训数据的隐私。最近,已经采取了许多启发式方法来概括集中化的自适应优化方法,例如SGDM,Adam,Adagrad等,以提高收敛性和准确性的联合设置。但是,关于在联合设置中的位置以及如何设计和利用自适应优化方法的理论原理仍然很少。这项工作旨在从普通微分方程(ODE)的动力学的角度开发新的自适应优化方法,以开发FL的新型自适应优化方法。首先,建立了一个分析框架,以在联合优化方法和相应集中优化器的ODES分解之间建立连接。其次,基于这个分析框架,开发了一种动量解耦自适应优化方法FedDA,以充分利用每种本地迭代的全球动量并加速训练收敛。最后但并非最不重要的一点是,在训练过程结束时,全部批处理梯度用于模仿集中式优化,以确保收敛并克服由自适应优化方法引起的可能的不一致。
translated by 谷歌翻译
卵巢癌是最有害的妇科疾病之一。通过计算机辅助技术在早期检测卵巢肿瘤可以有效降低死亡率。随着医疗标准的提高,超声图像被广泛应用于临床治疗。但是,最近的显着方法主要集中于单模式超声卵巢肿瘤分割或识别,这意味着仍然缺乏探索多模式超声卵巢肿瘤图像的表示能力的研究。为了解决这个问题,我们提出了一个多模式性卵巢肿瘤超声(MMOTU)图像数据集,其中包含1469 2D超声图像和170个具有像素和全球范围注释的对比度增强超声(CEUS)图像。基于MMOTU,我们主要关注无监督的跨域语义分割任务。为了解决域移位问题,我们提出了一个基于功能对齐的架构,名为Dual-Scheme域选择网络(DS $^2 $ NET)。具体而言,我们首先设计源编码器和目标编码器来提取源和目标图像的两种特征。然后,我们提出域名选定的模块(DDSM)和域 - 宇宙选定的模块(DUSM),以在两种样式(源式或目标式式)中提取独特的通用特征。最后,我们融合了这两种功能,并将它们馈入源编码器和目标编码器以生成最终预测。对MMOTU图像数据集的广泛比较实验和分析表明,DS $^2 $ NET可以提高2D超声图像和CEUS图像的双向跨域适应的分割性能。
translated by 谷歌翻译
语言模型既展示了定量的改进,又展示了新的定性功能,随着规模的增加。尽管它们具有潜在的变革性影响,但这些新能力的特征却很差。为了为未来的研究提供信息,为破坏性的新模型能力做准备,并改善社会有害的效果,至关重要的是,我们必须了解目前和近乎未来的能力和语言模型的局限性。为了应对这一挑战,我们介绍了超越模仿游戏基准(Big Bench)。 Big Bench目前由204个任务组成,由132家机构的442位作者贡献。任务主题是多样的,从语言学,儿童发展,数学,常识性推理,生物学,物理学,社会偏见,软件开发等等。 Big-Bench专注于被认为超出当前语言模型的功能的任务。我们评估了OpenAI的GPT型号,Google内部密集变压器体系结构和大型基础上的开关稀疏变压器的行为,跨越了数百万到数十亿个参数。此外,一个人类专家评估者团队执行了所有任务,以提供强大的基准。研究结果包括:模型性能和校准都随规模改善,但绝对的术语(以及与评估者的性能相比);在模型类中的性能非常相似,尽管带有稀疏性。逐渐和预测的任务通常涉及大量知识或记忆成分,而在临界规模上表现出“突破性”行为的任务通常涉及多个步骤或组成部分或脆性指标;社交偏见通常会随着含糊不清的环境而随着规模而增加,但这可以通过提示来改善。
translated by 谷歌翻译
垂直联合学习(VFL)是一种隐私的机器学习范式,可以从以隐私性的方式从不同平台上分布的功能学习模型。由于在实际应用程序中,数据可能包含对公平敏感特征(例如性别)的偏见,因此VFL模型可能会从培训数据中继承偏见,并对某些用户组变得不公平。但是,现有的公平ML方法通常依赖于对公平敏感特征的集中存储来实现模型公平,通常在联合场景中不适用。在本文中,我们提出了一个公平的垂直联合学习框架(FAIRVFL),可以改善VFL模型的公平性。 FAIRVFL的核心思想是根据分散的特征字段以隐私的方式学习样本的统一和公平表示。具体而言,每个具有不敏感功能的平台首先从本地功能中学习本地数据表示。然后,将这些本地表示形式上传到服务器,并将其汇总到目标任务的统一表示形式中。为了学习公平的统一表示形式,我们将它们发送到每个平台存储公平性敏感的功能,并应用对抗性学习,以从偏见的数据继承的统一表示形式中消除偏见。此外,为了保护用户隐私,我们进一步提出了一种对抗性对手学习方法,以从服务器中的统一表示形式中删除隐私信息,然后再将其发送到保持对公平敏感功能的平台。在两个现实世界数据集上进行的实验验证了我们的方法可以通过用户隐私受到良好保护有效地改善模型公平性。
translated by 谷歌翻译